12/Nov/2025
Avery IT Tech Google Threat Intelligence Group (GTIG) ได้ระบุถึงการเปลี่ยนแปลงครั้งสำคัญในแวดวงภัยคุกคามไซเบอร์ โดยพบว่า ผู้ก่อภัยคุกคามเริ่มนำ "มัลแวร์ที่ขับเคลื่อนด้วย AI รูปแบบใหม่" (novel AI-enabled malware) มาใช้ในการปฏิบัติการจริง ซึ่งถือเป็นระยะใหม่ของการนำ AI มาใช้ในทางที่ผิด
เป็นครั้งแรกในปี 2025 ที่ GTIG ตรวจพบตระกูลมัลแวร์ที่ใช้โมเดลภาษาขนาดใหญ่ (LLMs) ในระหว่างการดำเนินการ (during execution) หรือที่เรียกว่า "Just-in-Time" AI ในมัลแวร์ เครื่องมือเหล่านี้ใช้ LLM เพื่อสร้างสคริปต์ที่เป็นอันตราย, อำพรางโค้ดของตนเองเพื่อหลีกเลี่ยงการตรวจจับ, และสร้างฟังก์ชันที่เป็นอันตรายตามความต้องการ (on demand) แทนที่จะใช้โค้ดแบบตายตัว
ตัวอย่างสำคัญของมัลแวร์ที่ใช้ AI ระหว่างดำเนินการ
1. PROMPTSTEAL: เป็น Data Miner ที่ถูกตรวจพบว่าใช้งานจริง (Observed in operations) โดย APT28 (FROZENLAKE) กลุ่มที่ได้รับการสนับสนุนจากรัฐบาลรัสเซีย ในการโจมตีประเทศยูเครน PROMPTSTEAL ใช้ LLM (Qwen2.5-Coder-32B-Instruct) ผ่าน Hugging Face API เพื่อ สร้างคำสั่งสำหรับการดำเนินการแบบไดนามิก แทนการฮาร์ดโค้ดคำสั่ง การใช้ PROMPTSTEAL ถือเป็นครั้งแรกที่ GTIG สังเกตเห็นมัลแวร์สอบถาม LLM ในการปฏิบัติการจริง
2. PROMPTFLUX: เป็น Dropper ที่อยู่ในช่วงทดลอง (Experimental) ซึ่งเขียนด้วย VBScript และใช้ Google Gemini API เพื่อทำการสร้างตัวเองใหม่ (regeneration) โดยสั่งให้ LLM เขียนซอร์สโค้ดของตัวเองใหม่ในรูปแบบที่ถูกอำพรางเพื่อสร้างความคงอยู่ ส่วนประกอบที่เรียกว่า "Thinking Robot" ถูกออกแบบมาเพื่อสอบถาม Gemini เป็นระยะเพื่อรับโค้ดใหม่สำหรับหลีกเลี่ยงซอฟต์แวร์ป้องกันไวรัส การหลีกเลี่ยงมาตรการป้องกันและความล้มเหลวด้านความปลอดภัยในการปฏิบัติการ ผู้ก่อภัยคุกคามได้นำเอาอุบายที่คล้ายกับการทำวิศวกรรมสังคมมาใช้ในพรอมต์ (prompts) เพื่อ หลีกเลี่ยงมาตรการป้องกันความปลอดภัยของ AI (safety guardrails) เช่น
การขยายตัวของตลาดมืด AI และการใช้งานโดยรัฐบาล
ตลาดมืดใต้ดินสำหรับเครื่องมือ AI ที่ผิดกฎหมายได้เติบโตขึ้นในปี 2025 โดยมีข้อเสนอเครื่องมือหลากหลายฟังก์ชันที่ออกแบบมาเพื่อสนับสนุนกิจกรรมฟิชชิ่ง, การพัฒนามัลแวร์, และการวิจัยช่องโหว่ ซึ่งช่วยลดอุปสรรคในการเข้าร่วมสำหรับผู้ก่อภัยคุกคามที่มีความซับซ้อนน้อยกว่า นอกจากนี้ ผู้ก่อภัยคุกคามที่ได้รับการสนับสนุนจากรัฐบาล ได้แก่ เกาหลีเหนือ, อิหร่าน, และจีน (PRC) นำ Gemini ไปใช้ในทางที่ผิดเพื่อปรับปรุงการปฏิบัติการในทุกขั้นตอนของการโจมตี
การตอบสนองของ Google และมาตรการป้องกัน
Google มุ่งมั่นที่จะพัฒนา AI อย่างมีความรับผิดชอบ และได้ดำเนินการเชิงรุก เพื่อหยุดยั้งกิจกรรมที่เป็นอันตราย โดยการปิดใช้งานโปรเจกต์และบัญชีที่เกี่ยวข้องกับผู้ไม่ประสงค์ดี และใช้ข้อมูลเชิงลึกจากการตรวจสอบเพื่อ เสริมสร้างการป้องกันทั้งในส่วนของ classifiers และตัวโมเดล (Gemini) เพื่อให้สามารถปฏิเสธการให้ความช่วยเหลือในการโจมตีประเภทนี้ในอนาคต
Google ได้เปิดตัว Secure AI Framework (SAIF) ซึ่งเป็นกรอบแนวคิดเพื่อรักษาความปลอดภัยของระบบ AI และลงทุนในการวิจัย AI เพื่อค้นหาและแก้ไขความเสี่ยงโดยอัตโนมัติ เช่น การใช้ AI agent ที่ชื่อว่า Big Sleep เพื่อค้นหาช่องโหว่ด้านความปลอดภัย และ CodeMender ซึ่งเป็น AI-powered agent ที่กำลังทดลองใช้เพื่อแก้ไขช่องโหว่ของโค้ดที่สำคัญโดยอัตโนมัติ
การเปลี่ยนผ่านของผู้ก่อภัยคุกคามไปสู่การใช้มัลแวร์ที่มีความสามารถในการปรับเปลี่ยนตนเองในระหว่างการดำเนินการนั้น เปรียบเสมือนการเปลี่ยนจากการใช้เครื่องมือคงที่ไปสู่ เครื่องมือที่สามารถวิวัฒนาการตัวเองได้ ซึ่งเน้นย้ำถึงความจำเป็นที่ผู้ป้องกันต้องพัฒนาการป้องกันให้มีความคล่องตัวและเป็นพลวัตเพื่อรับมือกับภัยคุกคามที่ซับซ้อนยิ่งขึ้น
ติดตามข่าวสารใหม่ๆได้ที่ Avery it tech #เพราะเทคโนโลยีอยู่รอบตัวคุณ #GTIG #AI
แหล่งอ้างอิง
https://cloud.google.com/blog/topics/threat-intelligence/threat-actor-usage-of-ai-tools?fbclid=IwVERTSAN9cz9leHRuA2FlbQIxMABzcnRjBmFwcF9pZAwzNTA2ODU1MzE3MjgAAR7yayWnthK5bNr-i-k3AEC1sozN6lYt49rWH_GPqcyy5g2IziykZTQrCPvQZA_aem_I_Pw0UKzIMwQzMjVOGrNYQ
23/Jul/2024
6/Nov/2024
6/Nov/2024